ChatGPT : la CNIL britannique met en garde, le Canada ouvre une enquête

ChatGPT : la CNIL britannique met en garde, le Canada ouvre une enquête

ChatGPT : la CNIL britannique met en garde, le Canada ouvre une enquête

L’Information Commissioner’s Office (ICO), la CNIL du Royaume-Uni, a averti les entreprises du numérique mettant en place des solutions de chatbots comme ChatGPT qu'elles doivent respecter la vie privée, alors qu'ils sont entrainés avec de nombreuses données provenant du web, explique le Guardian. Cette prise de position intervient alors que l'Italie a bloqué l'utilisation de ChatGPT la semaine dernière.

« Il n'y a vraiment aucune excuse pour ne pas prendre en compte les implications sur la protection de la vie privée de l'IA générative. Nous travaillerons dur pour nous assurer que les entreprises le fassent correctement », a déclaré Stephen Almond, directeur de la technologie et de l'innovation de l'ICO, rapporte le journal britannique.

Le responsable de l’ICO explique avoir utilisé ChatGPT sur la question et celui-ci a renvoyé comme réponse que l'IA générative a « le potentiel de poser des risques pour la confidentialité des données si elle n'est pas utilisée de manière responsable ».

Dans le même temps, le Commissariat à la protection de la vie privée du Canada « a ouvert une enquête sur l’entreprise qui est à l’origine de ChatGPT, un robot conversationnel doté d’une intelligence artificielle ».

Cette « enquête sur OpenAI, l’entreprise qui exploite ChatGPT, a été lancée à la suite d’une plainte selon laquelle des renseignements personnels ont été recueillis, utilisés et communiqués sans consentement ». Aucune précision supplémentaire ne peut être donné pour l’instant, l’enquête est en cours.

Commentaires (9)


Et pendant ce temps, à la CNIL… :kimouss: :tchintchin:



Jarodd a dit:


Et pendant ce temps, à la CNIL… :kimouss: :tchintchin:




Il y a deux plaintes en cours.


Je n’ai pas vu passer cette info. La dernière actu sur le sujet (à ma connaissance) disait :




Interrogée par l’AFP, la CNIL précise n’avoir « pas reçu de plainte et n’a pas de procédure similaire en cours ». La Commission s’est néanmoins rapprochée de son homologue « afin d’échanger sur les constats qui ont pu être faits ».



C’est d’aujourd’hui, regarde le dernier commentaire :D


L’autre est donc la mienne ou bien il y en a plus que deux. :D


C’est ce que je me suis dit, mais faute de source accessible j’ai préféré ne pas m’avancer :D


Je m’INforme dans les articles, pas dans les commentaires :chinois:
France Inter vient de publier cet article qui parle des deux plaintes auprès de la CNIL, en reprenant l’article de l’informé (auquel je ne suis pas abonné, comme toi) :
https://www.radiofrance.fr/franceinter/intelligence-artificielle-premieres-plaintes-deposees-aupres-de-la-cnil-contre-chatgpt-4394814
L’info passera peut-être dans le brief de cette fin de semaine.


Merci du lien avec des infos sur les 2 autres plaintes.



La mienne date du 3 février donc bien avant ces deux là.


Merci :smack:



La première est assez “banale” dans le sens où elle n’est pas directement liée à ChatGPT et au modèle de langage.



La seconde par contre se révèle plus intéressante car j’aurais bien savoir comment le journaliste s’y est pris pour faire ressortir son nom et prénom. Après, dans la mesure où il s’agit d’un journaliste ayant un site web à son nom, faire cracher l’info au modèle ne me semble pas un exploit (c’est le côté scrapping de données personnelles qui est plus problématique). Cependant, je suis beaucoup plus intrigué par la façon dont la plainte sera considérée et en quoi ChatGPT donnerait “de fausses informations”.



De mon point de vue, le prompt envoyé à ChatGPT est indispensable pour comprendre le contexte qui l’a amené à trouver le nom du journaliste et à générer des fausses informations. Tout comme il devient intéressant de savoir si un contenu généré qui donne un nom et prénom (fictif ou réel) est considéré comme un traitement de données personnelles. Indirectement, je vois ça comme le fait de rechercher un nom dans un moteur de recherche et considérer les infos renvoyées comme fausses parce que les résultats ne sont pas pertinents.



Pour reprendre le cas que j’ai évoqué dans ce commentaire, l’outil m’a craché une “lecture” complètement inventée d’un article de mon blog en extrapolant l’URL pour broder un truc qui n’avait aucun rapport en citant un nom d’auteur et un livre qui a une vague relation avec les mots clés dans l’URL et un contexte bancal.



J’espère que la CNIL communiquera sur ce cas, il va vraiment être intéressant.


Fermer